花费 46 ms
关于交叉熵(cross entropy),你了解哪些

二分~多分~Softmax~理预 一、简介  在二分类问题中,你可以根据神经网络节点的输出,通过一个激活函数如Sigmoid,将其转换为属于某一类的概率,为了给出具体的分类结果,你可以取0.5作为 ...

Thu Feb 14 02:13:00 CST 2019 0 10596
聚类算法中的距离度量有哪些

一、你知道聚类中度量距离的方法有哪些吗?  1)欧式距离  欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。即两点之间直线距离,公式比较简单就不写了  应用场景:适用于求 ...

Fri Jul 27 18:56:00 CST 2018 0 5049
服从正态分布的样本似然估计的期望和方差

一、题目简述  假设样本服从正态分布:\(N(\mu,\sigma^2)\),写出似然估计的期望和方差  极大似然函数是什么意思呢?  1)写出似然函数  2)取对数    ...

Sun Mar 03 00:16:00 CST 2019 0 3143
不平衡数据集的处理方法

(定义,举例,实例,问题,扩充,采样,人造,改变) 一、不平衡数据集  1)定义   不平衡数据集指的是数据集各个类别的样本数目相差巨大。以二分类问题为例,假设正类的样本数量远大于负类的样本数量 ...

Fri Jan 18 18:32:00 CST 2019 2 2452
1x1的卷积核有什么作用

信道压缩~通~通~减 一、1 X 1的卷积核作用  所谓信道压缩,Network in Network是怎么做到的?  对于如下的二维矩阵,做卷积,相当于直接乘以2,貌似看上去没什么意义: ...

Fri Apr 26 18:09:00 CST 2019 0 1096
关于激活函数

什么~为什么~哪些(RSST) 一、什么是激活函数  如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function: ...

Wed Feb 13 23:14:00 CST 2019 0 975
LR和SVM的区别

一、相同点  第一,LR和SVM都是分类算法(SVM也可以用与回归)  第二,如果不考虑核函数,LR和SVM都是线性分类算法,也就是说他们的分类决策面都是线性的。   这里要先说明一点,那就是L ...

Fri Jul 13 05:58:00 CST 2018 0 1063
损失函数及经验风险和结构风险

一、常见的损失函数  常见的损失函数见这里:https://www.cnblogs.com/always-fight/p/9099704.html 二、关于经验风险和结构风险最小化  模型 ...

Thu Aug 16 02:40:00 CST 2018 0 756

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM